在Byedance上,我们与Amazon Web Services(AWS)合作部署了多模式大语言模型(LLMS),以在世界各地的多个AWS地区使用AWS推理AWS来理解视频理解。通过使用复杂的ML算法,该平台每天有效地扫描数十亿个视频。在这篇文章中,我们讨论了多模式LLM的使用用于视频理解,解决方案体系结构以及性能优化的技术。
Accelerate IaC troubleshooting with Amazon Bedrock Agents
这篇文章演示了亚马逊基岩代理如何结合行动组和生成AI模型,简化和加速地Terraform错误的分辨率,同时保持符合环境安全和操作指南。
在这篇文章中,我们展示了如何使用自定义数据源连接器将Alation的业务策略与Amazon Q Business应用程序集成的示例。
我们很高兴地宣布,Mistral-Small-24B-Instruct-2501-来自Mistral AI的240亿个参数大语言模型(LLM),可针对低延迟文本生成任务进行优化 - 可以通过Amazon Sagemaker Jumpstartand Jumpstartand Amazon Bedrock Marketplace提供客户。在这篇文章中,我们介绍如何发现,部署和使用Mistral-Small-24B-Instruct-2501。
How Rocket Companies modernized their data science solution on AWS
在这篇文章中,我们分享了如何在AWS上进行现代化的火箭公司的数据科学解决方案,以将交付速度从八周提高到一小时以下,通过在18个月内减少事件票来提高运营稳定和支持。 ,每天做出1000万个自动数据科学和人工智能决策,并提供无缝的数据科学开发经验。
Orchestrate an intelligent document processing workflow using tools in Amazon Bedrock
这种智能文档处理解决方案使用Amazon Bedrock FMS来协调一个复杂的工作流程,以处理具有混合内容类型的多页医疗保健文档。该解决方案使用FM的工具使用功能,该功能通过亚马逊基岩匡威API访问。这使FMS不仅可以处理文本,还可以积极地使用各种外部工具和API来执行复杂的文档分析任务。
在这篇文章中,我们将连续的自我实施微型调整框架作为DSPY框架实现的复合AI系统。该框架首先从域知识库中生成一个综合数据集,并为自我建筑生成文档,然后通过SFT驱动模型进行微调,并介绍了人类的工作流程,以将人类和AI的反馈收集到模型响应中,它用于通过增强学习(RLHF/RLAIF)来对齐人类偏好来进一步提高模型性能。
Verisk的高级审计咨询服务是高级审计师和承销商的技术信息和培训的主要来源。在这篇文章中,我们描述了PAAS中客户支持过程的开发,并结合了生成AI,数据,体系结构和结果评估。会话AI助手正在迅速改变客户和员工的支持。
Best practices for Amazon SageMaker HyperPod task governance
在这篇文章中,我们提供了最佳实践,以最大程度地提高SageMaker HyperPod任务治理的价值,并使管理和数据科学体验无缝。在管理和运行生成的AI开发任务时,我们还讨论了共同的治理方案。
How Formula 1® uses generative AI to accelerate race-day issue resolution
在这篇文章中,我们解释了F1和AWS如何开发由亚马逊基岩提供动力的根本原因分析(RCA)助理,以减少手动干预并加速在几周到几分钟内的比赛中分辨出复发性的操作问题。 RCA助理使F1团队能够花更多的时间在创新上并改善其服务,最终为粉丝和合作伙伴提供了非凡的体验。 F1和AWS之间的成功合作展示了生成AI在赋予团队能力以更少的时间内完成的变革潜力。
Build a dynamic, role-based AI agent using Amazon Bedrock inline agents
在这篇文章中,我们探讨了如何使用Amazon Bedrock Inline Agents构建应用程序,并演示了单个AI助手如何根据用户角色动态调整其功能。
Use language embeddings for zero-shot classification and semantic search with Amazon Bedrock
在这篇文章中,我们探讨了哪些语言嵌入方式以及如何使用它们来增强您的应用程序。我们展示了如何通过使用嵌入式的属性来实现实时零击分类器,并可以添加强大的功能,例如语义搜索。
Achieve ~2x speed-up in LLM inference with Medusa-1 on Amazon SageMaker AI
研究人员开发了 Medusa,这是一个通过添加额外头来同时预测多个标记以加快 LLM 推理速度的框架。这篇文章演示了如何使用框架的第一个版本 Medusa-1 通过在 Amazon SageMaker AI 上对其进行微调来加速 LLM,并通过部署和简单的负载测试确认了加速效果。Medusa-1 在不牺牲模型质量的情况下实现了约两倍的推理加速,具体改进取决于模型大小和使用的数据。在这篇文章中,我们通过在样本数据集上观察到 1.8 倍的加速来证明其有效性。
From concept to reality: Navigating the Journey of RAG from proof of concept to production
在本文中,我们探讨了 RAG 应用程序从概念验证或最小可行产品 (MVP) 阶段向成熟生产系统的转变。在将 RAG 应用程序从概念验证过渡到可用于生产的系统时,优化变得至关重要,以确保解决方案可靠、经济高效且性能卓越。
Falcon 3 models now available in Amazon SageMaker JumpStart
我们很高兴地宣布,TII 的 Falcon 3 系列模型已在 Amazon SageMaker JumpStart 中推出。在本文中,我们将探讨如何在 Amazon SageMaker AI 上高效部署此模型。
Building a virtual meteorologist using Amazon Bedrock Agents
在本文中,我们介绍了一种通过结合 Amazon Bedrock Agents 和基础模型 (FM) 来部署 AI 驱动代理的简化方法。我们将指导您完成配置代理和实现虚拟气象学家提供准确天气相关响应所需的特定逻辑的过程。
Faster distributed graph neural network training with GraphStorm v0.4
GraphStorm 是一个低代码企业图形机器学习 (ML) 框架,为 ML 从业者提供了一种在行业规模图形数据上构建、训练和部署图形 ML 解决方案的简单方法。在这篇文章中,我们展示了 GraphBolt 如何在分布式设置中增强 GraphStorm 的性能。我们提供了一个在 SageMaker 上使用 GraphStorm 和 GraphBolt 进行分布式训练的实际示例。最后,我们分享了如何将 Amazon SageMaker Pipelines 与 GraphStorm 结合使用。